Световни новини без цензура!
Какво се случва, когато AI системите останат сами? Те изграждат общества, изучавайте
Снимка: ndtv.com
NDTV News | 2025-05-16 | 16:15:14

Какво се случва, когато AI системите останат сами? Те изграждат общества, изучавайте

бързи четения Резюме е генериран от AI, прегледано Newsroom. AI системите могат да развиват неповторими общества със личните си правила, находки на изследвания. Изследователите проучиха взаимоотношенията на огромни езикови модели в изследването. Ай сътрудниците образуваха споделени конвенции самостоятелно без експлицитни насоки.

Системите за изкуствен интелект (AI) могат да образуват свои лични общества с неповторими езикови правила и конвенции, сходни на човешките общности, когато са оставени сами да взаимодействат, демонстрира, че проучване, оповестено в. Учени от Сити Сейнт Джордж, Университета в Лондон и ИТ университета в Копенхаген организираха проучването, с цел да схванат по какъв начин огромните езикови модели (LLM), че захранващите AI принадлежности си взаимодействат между тях.

" Повечето проучвания до момента са лекували LLMS в изолираност, само че системите на Ариел Ариел, от ден на ден ще включват доста взаимодействащи сътрудници ", сподели водещи авторки ARIEL FLIN Джордж.

" Искахме да знаем: Могат ли тези модели да координират държанието им посредством образуване на конвенции, градивните детайли на обществото? Отговорът е да, и това, което вършат дружно, не може да бъде сведено до това, което вършат сами. "

За опита откривателите използваха игра за именуване, където сътрудниците на AI трябваше да избират имена от набор и получени награди за избирането на същите. С течение на времето сътрудниците на AI развиха споделени конвенции и пристрастия без експлицитна съгласуваност.

Ай сътрудниците имитираха навика на хората, които също са склонни да подхождат на сходни правила. Researchers added that it was possible for a small group of AI agents to push a larger group towards a particular convention -- a trait often observed in human groups.

" Our results show that AI systems can autonomously develop social conventions without explicit programming and have implications for designing AI systems that align, and remain aligned, with human values ​​and societal goals, " the study highlighted, adding that results were robust when using four different types of Llms, а точно. Llama-2-70b-Chat, Llama-3-70B-Instruct, Llama-3.1-70BInstruct, and Claude-3.5-Sonnet.

Ethical dangers

The researchers stated that their work could be used to combat some of the ethical dangers posed by LLM AIs propagating пристрастия, подадени в тях от обществото.

" Това изследване отваря нов небосвод за проучване на сигурността на AI. Това демонстрира дълбочината на последствията от този нов тип сътрудници, които са почнали да взаимодействат с нас и ще кожират нашето бъдеще ", сподели Андреа Барончели, старши създател на проучването. Подравнява се, а от време на време и не е според с споделеното държание, също като нас. "

Г -н Baronchelli добави, че разбирането на метода, по който действат AI системите, ще бъде ключът към " нашето взаимно битие ", а не да бъде обект на него.

Източник: ndtv.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!